9 research outputs found

    Reordenaci贸 i agrupament d鈥檌matges resultants d鈥檜na cerca de v铆deo

    Get PDF
    La recuperaci贸 de v铆deo a trav茅s de consultes textuals es una practica molt com煤 en els arxius de radiodifusi贸. Les paraules clau de les consultes son comparades amb les metadades que s鈥檃noten manualment als assets de v铆deo pels documentalistes. A m茅s, les cerques textuals b脿siques generen llistes de resultats planes, on tots els resultats tenen la mateixa import脿ncia, ja que, es limita a avaluar bin脿riament si la paraula de cerca apareix o no entre les metadades associades als continguts. A m茅s, acostumen a mostrar continguts molt similars, donant al usuari una llista ordenada de resultats de poca diversitat visual. La redund脿ncia en els resultats provoca un malbaratament d鈥檈spai a la interf铆cie gr脿fica d鈥檜suari (GUI) que sovint obliga a l鈥檜suari a interactuar fortament amb la interf铆cie gr脿fica fins localitzar els resultats rellevants per a la seva cerca. La aportaci贸 del present projecte consisteix en la presentaci贸 d鈥檜na estrat猫gia de reordenaci贸 i agrupaci贸 per obtenir keyframes de major rellev脿ncia entre els primers resultats, per貌 al mateix temps mantenir una diversitat d鈥檃ssets. D鈥檃questa forma, aquestes t猫cniques permetran millorar els sistemes de visualitzaci贸 d鈥檌matges resultants d鈥檜na cerca de v铆deo. L鈥檈ina global es dissenya per ser integrada en l'entorn del Digition, el gestor de continguts audiovisuals de la Corporaci贸 Catalana de Mitjans Audiovisuals

    Reordenaci贸 i agrupament d鈥檌matges resultants d鈥檜na cerca de v铆deo

    Get PDF
    La recuperaci贸 de v铆deo a trav茅s de consultes textuals es una practica molt com煤 en els arxius de radiodifusi贸. Les paraules clau de les consultes son comparades amb les metadades que s鈥檃noten manualment als assets de v铆deo pels documentalistes. A m茅s, les cerques textuals b脿siques generen llistes de resultats planes, on tots els resultats tenen la mateixa import脿ncia, ja que, es limita a avaluar bin脿riament si la paraula de cerca apareix o no entre les metadades associades als continguts. A m茅s, acostumen a mostrar continguts molt similars, donant al usuari una llista ordenada de resultats de poca diversitat visual. La redund脿ncia en els resultats provoca un malbaratament d鈥檈spai a la interf铆cie gr脿fica d鈥檜suari (GUI) que sovint obliga a l鈥檜suari a interactuar fortament amb la interf铆cie gr脿fica fins localitzar els resultats rellevants per a la seva cerca. La aportaci贸 del present projecte consisteix en la presentaci贸 d鈥檜na estrat猫gia de reordenaci贸 i agrupaci贸 per obtenir keyframes de major rellev脿ncia entre els primers resultats, per貌 al mateix temps mantenir una diversitat d鈥檃ssets. D鈥檃questa forma, aquestes t猫cniques permetran millorar els sistemes de visualitzaci贸 d鈥檌matges resultants d鈥檜na cerca de v铆deo. L鈥檈ina global es dissenya per ser integrada en l'entorn del Digition, el gestor de continguts audiovisuals de la Corporaci贸 Catalana de Mitjans Audiovisuals

    Introducci贸 de la informaci贸 de profunditat en una t猫cnica de co-clustering jer脿rquic temporal

    No full text
    Dada una t茅cnica de co-clustering de im谩genes en una secuencia de v铆deo, se ha estudiado c贸mo mejorar dicha t茅cnica incluyendo una estimaci贸n de la informaci贸n de profundidad entre las caracter铆sticas que explota el co-clustering.Video segmentation aims to consistently group regions that are similar in appearance and movement along a sequence. This task is an essential step of video analysis and it has important applications in video coding, indexing and retrieval, 3D reconstruction, action recognition, etc. In particular, in this thesis, a multiresolution hierarchical co-clustering technique (MRHC) is analyzed in order to include depth information for improving image segmentation in sequences with small variations. This information is invariant to changes on brightness and/or texture and camera position. Thus, it may correct some errors that are present when segmentation techniques based on color and movement are used, because this information is independent of color information of the image and the movement that occurs in the scene. Two considerations can be made. Firstly, all the regions of the same object should share similar depth values and, secondly, depth values from regions that do not belong to the same object show discontinuities. Three different ways of coding depth information in MRHC have been studied in this project. In the first approach, the similarity between regions is weighted according to the depth difference between them. The second approach determines the 3D-neighborhood between regions. Finally, a combination of the previous approaches is considered. The Video Occlusion/Object Boundary Dataset has been used to evaluate the inclusion of the depth on MRHC and to compare this method with the state-of-the-art techniques in the field of video segmentation. The results obtained show that the use of depth information improves the outcome video techniques obtained with the MRHC, outperforming the state-of-the-art methods in this scenario.La segmentaci贸n de una secuencia de video consiste en agrupar de manera coherente regiones que son similares tanto en apariencia como en movimiento a lo largo de un v铆deo. Esta tarea es un paso fundamental en el an谩lisis de v铆deo y tiene importantes aplicaciones en codificaci贸n, indexaci贸n y recuperaci贸n de v铆deo, reconstrucci贸n 3D, reconocimiento de acciones, etc. En concreto, en este Proyecto Final de Carrera se analiza la t茅cnica de co-clustering multiresoluci贸n jer谩rquico para segmentaci贸n de v铆deo (MRHC) con el objetivo de introducir la informaci贸n de profundidad para mejorar la segmentaci贸n. Esta informaci贸n facilita la tarea de segmentaci贸n porque es invariante a los cambios de iluminaci贸n y/o textura y a la posici贸n de la c谩mara. Por lo tanto, permite corregir algunos de los problemas que presentan las t茅cnicas de segmentaci贸n basadas en color y movimiento porque utilizan una informaci贸n independiente del color de la imagen y del movimiento que se produce en la escena. Se pueden hacer dos consideraciones en cuanto a los valores de profundidad en una escena. Por un lado, los valores de un objeto no var铆an bruscamente. Por el otro, los valores de profundidad presentan discontinuidades en la frontera entre objetos. En base a estas consideraciones se puede determinar si dos regiones pertenecen al mismo plano de profundidad o no. En este proyecto se han estudiado tres maneras de introducir la informaci贸n de profundidad en MRHC. La primera consiste en ponderar la similitud entre regiones en funci贸n de la diferencia de profundidad entre 茅stas. Este coeficiente penalizando la similitud a medida que la diferencia aumenta. La segunda consiste en determinar la vecindad entre regiones en 3D. Por 煤ltimo, el tercer enfoque combina los dos anteriores. Se ha utilizado la base de datos Occlusion/Object Boundary para evaluar la inclusi贸n de la profundidad en MRCH y para comparar la t茅cnica actual MRHC con el estado del arte en segmentaci贸n de video. Los resultados obtenidos muestran que la inclusi贸n de la profundidad mejora los resultados obtenidos con MRHC, superando las t茅cnicas del estado del arte.La segmentaci贸 de una seq眉猫ncia de v铆deo consisteix en agrupar de forma coherent regions que s贸n similars tant en aparen莽a com en moviment al llarg de un v铆deo. Aquesta tasca es un pas fonamental en l鈥檃n脿lisi de v铆deo y t茅 importants aplicacions en codificaci贸, indexaci贸 y recuperaci贸 de v铆deo, reconstrucci贸 3D, reconeixement d鈥檃ccions, etc. En concret, en aquest Projecte final de Carrera s鈥檃nalitza la t猫cnica de co-clustering multiresoluci贸 jer脿rquica per segmentaci贸 de v铆deo (MRHC) amb l鈥檕bjectiu de introduir la informaci贸 de profunditat per millorar la segmentaci贸. Aquesta informaci贸 facilita la tasca de segmentaci贸 perqu猫 茅s invariant als canvis de il鈥uminaci贸 i/o textura i a la posici贸 de la c脿mera. Per aix貌, permet corregir alguns errors que produeixen les t猫cniques de segmentaci贸 basades en el color de la imatge i del moviment que es produeix a l鈥檈scena. Es poden fer dues consideracions en quant als valors de profunditat d鈥檜na escena. Per una banda, els valors d鈥檜n objecte no varien bruscament. Per l鈥檃ltre, els valors de profunditat presenten discontinu茂tats a la frontera entre objectes. Segons aquestes consideracions es pot determinar si dos regions corresponen al mateix pla de profunditat o no. En aquest projecte s鈥檋an estudiat tres manera de incorporar la informaci贸 de profunditat a MRHC. La primera pondera la similitud entre regions en funci贸 de la diferencia de profunditat entre aquestes. Aquest coeficient penalitza la similitud a mesura que la diferencia augmenta. La segona determina el ve茂nat entre regions en 3D. Per 煤ltim, la tercera combina les dues anteriors. S鈥檋a utilitzat la base de dades Occlusion/Object Boundary per avaluar la inclusi贸 de la profunditat a MRHC i per comparar MRHC amb les t猫cniques del estat del art en segmentaci贸 de v铆deo. Els resultats obtinguts mostren que la inclusi贸 de la profunditat obt茅 millora els resultats obtinguts amb MRHC, superant les t猫cniques del estat del art

    Introducci贸 de la informaci贸 de profunditat en una t猫cnica de co-clustering jer脿rquic temporal

    No full text
    Dada una t茅cnica de co-clustering de im谩genes en una secuencia de v铆deo, se ha estudiado c贸mo mejorar dicha t茅cnica incluyendo una estimaci贸n de la informaci贸n de profundidad entre las caracter铆sticas que explota el co-clustering.Video segmentation aims to consistently group regions that are similar in appearance and movement along a sequence. This task is an essential step of video analysis and it has important applications in video coding, indexing and retrieval, 3D reconstruction, action recognition, etc. In particular, in this thesis, a multiresolution hierarchical co-clustering technique (MRHC) is analyzed in order to include depth information for improving image segmentation in sequences with small variations. This information is invariant to changes on brightness and/or texture and camera position. Thus, it may correct some errors that are present when segmentation techniques based on color and movement are used, because this information is independent of color information of the image and the movement that occurs in the scene. Two considerations can be made. Firstly, all the regions of the same object should share similar depth values and, secondly, depth values from regions that do not belong to the same object show discontinuities. Three different ways of coding depth information in MRHC have been studied in this project. In the first approach, the similarity between regions is weighted according to the depth difference between them. The second approach determines the 3D-neighborhood between regions. Finally, a combination of the previous approaches is considered. The Video Occlusion/Object Boundary Dataset has been used to evaluate the inclusion of the depth on MRHC and to compare this method with the state-of-the-art techniques in the field of video segmentation. The results obtained show that the use of depth information improves the outcome video techniques obtained with the MRHC, outperforming the state-of-the-art methods in this scenario.La segmentaci贸n de una secuencia de video consiste en agrupar de manera coherente regiones que son similares tanto en apariencia como en movimiento a lo largo de un v铆deo. Esta tarea es un paso fundamental en el an谩lisis de v铆deo y tiene importantes aplicaciones en codificaci贸n, indexaci贸n y recuperaci贸n de v铆deo, reconstrucci贸n 3D, reconocimiento de acciones, etc. En concreto, en este Proyecto Final de Carrera se analiza la t茅cnica de co-clustering multiresoluci贸n jer谩rquico para segmentaci贸n de v铆deo (MRHC) con el objetivo de introducir la informaci贸n de profundidad para mejorar la segmentaci贸n. Esta informaci贸n facilita la tarea de segmentaci贸n porque es invariante a los cambios de iluminaci贸n y/o textura y a la posici贸n de la c谩mara. Por lo tanto, permite corregir algunos de los problemas que presentan las t茅cnicas de segmentaci贸n basadas en color y movimiento porque utilizan una informaci贸n independiente del color de la imagen y del movimiento que se produce en la escena. Se pueden hacer dos consideraciones en cuanto a los valores de profundidad en una escena. Por un lado, los valores de un objeto no var铆an bruscamente. Por el otro, los valores de profundidad presentan discontinuidades en la frontera entre objetos. En base a estas consideraciones se puede determinar si dos regiones pertenecen al mismo plano de profundidad o no. En este proyecto se han estudiado tres maneras de introducir la informaci贸n de profundidad en MRHC. La primera consiste en ponderar la similitud entre regiones en funci贸n de la diferencia de profundidad entre 茅stas. Este coeficiente penalizando la similitud a medida que la diferencia aumenta. La segunda consiste en determinar la vecindad entre regiones en 3D. Por 煤ltimo, el tercer enfoque combina los dos anteriores. Se ha utilizado la base de datos Occlusion/Object Boundary para evaluar la inclusi贸n de la profundidad en MRCH y para comparar la t茅cnica actual MRHC con el estado del arte en segmentaci贸n de video. Los resultados obtenidos muestran que la inclusi贸n de la profundidad mejora los resultados obtenidos con MRHC, superando las t茅cnicas del estado del arte.La segmentaci贸 de una seq眉猫ncia de v铆deo consisteix en agrupar de forma coherent regions que s贸n similars tant en aparen莽a com en moviment al llarg de un v铆deo. Aquesta tasca es un pas fonamental en l鈥檃n脿lisi de v铆deo y t茅 importants aplicacions en codificaci贸, indexaci贸 y recuperaci贸 de v铆deo, reconstrucci贸 3D, reconeixement d鈥檃ccions, etc. En concret, en aquest Projecte final de Carrera s鈥檃nalitza la t猫cnica de co-clustering multiresoluci贸 jer脿rquica per segmentaci贸 de v铆deo (MRHC) amb l鈥檕bjectiu de introduir la informaci贸 de profunditat per millorar la segmentaci贸. Aquesta informaci贸 facilita la tasca de segmentaci贸 perqu猫 茅s invariant als canvis de il鈥uminaci贸 i/o textura i a la posici贸 de la c脿mera. Per aix貌, permet corregir alguns errors que produeixen les t猫cniques de segmentaci贸 basades en el color de la imatge i del moviment que es produeix a l鈥檈scena. Es poden fer dues consideracions en quant als valors de profunditat d鈥檜na escena. Per una banda, els valors d鈥檜n objecte no varien bruscament. Per l鈥檃ltre, els valors de profunditat presenten discontinu茂tats a la frontera entre objectes. Segons aquestes consideracions es pot determinar si dos regions corresponen al mateix pla de profunditat o no. En aquest projecte s鈥檋an estudiat tres manera de incorporar la informaci贸 de profunditat a MRHC. La primera pondera la similitud entre regions en funci贸 de la diferencia de profunditat entre aquestes. Aquest coeficient penalitza la similitud a mesura que la diferencia augmenta. La segona determina el ve茂nat entre regions en 3D. Per 煤ltim, la tercera combina les dues anteriors. S鈥檋a utilitzat la base de dades Occlusion/Object Boundary per avaluar la inclusi贸 de la profunditat a MRHC i per comparar MRHC amb les t猫cniques del estat del art en segmentaci贸 de v铆deo. Els resultats obtinguts mostren que la inclusi贸 de la profunditat obt茅 millora els resultats obtinguts amb MRHC, superant les t猫cniques del estat del art

    Introducci贸 de la informaci贸 de profunditat en una t猫cnica de co-clustering jer脿rquic temporal

    No full text
    Dada una t茅cnica de co-clustering de im谩genes en una secuencia de v铆deo, se ha estudiado c贸mo mejorar dicha t茅cnica incluyendo una estimaci贸n de la informaci贸n de profundidad entre las caracter铆sticas que explota el co-clustering.Video segmentation aims to consistently group regions that are similar in appearance and movement along a sequence. This task is an essential step of video analysis and it has important applications in video coding, indexing and retrieval, 3D reconstruction, action recognition, etc. In particular, in this thesis, a multiresolution hierarchical co-clustering technique (MRHC) is analyzed in order to include depth information for improving image segmentation in sequences with small variations. This information is invariant to changes on brightness and/or texture and camera position. Thus, it may correct some errors that are present when segmentation techniques based on color and movement are used, because this information is independent of color information of the image and the movement that occurs in the scene. Two considerations can be made. Firstly, all the regions of the same object should share similar depth values and, secondly, depth values from regions that do not belong to the same object show discontinuities. Three different ways of coding depth information in MRHC have been studied in this project. In the first approach, the similarity between regions is weighted according to the depth difference between them. The second approach determines the 3D-neighborhood between regions. Finally, a combination of the previous approaches is considered. The Video Occlusion/Object Boundary Dataset has been used to evaluate the inclusion of the depth on MRHC and to compare this method with the state-of-the-art techniques in the field of video segmentation. The results obtained show that the use of depth information improves the outcome video techniques obtained with the MRHC, outperforming the state-of-the-art methods in this scenario.La segmentaci贸n de una secuencia de video consiste en agrupar de manera coherente regiones que son similares tanto en apariencia como en movimiento a lo largo de un v铆deo. Esta tarea es un paso fundamental en el an谩lisis de v铆deo y tiene importantes aplicaciones en codificaci贸n, indexaci贸n y recuperaci贸n de v铆deo, reconstrucci贸n 3D, reconocimiento de acciones, etc. En concreto, en este Proyecto Final de Carrera se analiza la t茅cnica de co-clustering multiresoluci贸n jer谩rquico para segmentaci贸n de v铆deo (MRHC) con el objetivo de introducir la informaci贸n de profundidad para mejorar la segmentaci贸n. Esta informaci贸n facilita la tarea de segmentaci贸n porque es invariante a los cambios de iluminaci贸n y/o textura y a la posici贸n de la c谩mara. Por lo tanto, permite corregir algunos de los problemas que presentan las t茅cnicas de segmentaci贸n basadas en color y movimiento porque utilizan una informaci贸n independiente del color de la imagen y del movimiento que se produce en la escena. Se pueden hacer dos consideraciones en cuanto a los valores de profundidad en una escena. Por un lado, los valores de un objeto no var铆an bruscamente. Por el otro, los valores de profundidad presentan discontinuidades en la frontera entre objetos. En base a estas consideraciones se puede determinar si dos regiones pertenecen al mismo plano de profundidad o no. En este proyecto se han estudiado tres maneras de introducir la informaci贸n de profundidad en MRHC. La primera consiste en ponderar la similitud entre regiones en funci贸n de la diferencia de profundidad entre 茅stas. Este coeficiente penalizando la similitud a medida que la diferencia aumenta. La segunda consiste en determinar la vecindad entre regiones en 3D. Por 煤ltimo, el tercer enfoque combina los dos anteriores. Se ha utilizado la base de datos Occlusion/Object Boundary para evaluar la inclusi贸n de la profundidad en MRCH y para comparar la t茅cnica actual MRHC con el estado del arte en segmentaci贸n de video. Los resultados obtenidos muestran que la inclusi贸n de la profundidad mejora los resultados obtenidos con MRHC, superando las t茅cnicas del estado del arte.La segmentaci贸 de una seq眉猫ncia de v铆deo consisteix en agrupar de forma coherent regions que s贸n similars tant en aparen莽a com en moviment al llarg de un v铆deo. Aquesta tasca es un pas fonamental en l鈥檃n脿lisi de v铆deo y t茅 importants aplicacions en codificaci贸, indexaci贸 y recuperaci贸 de v铆deo, reconstrucci贸 3D, reconeixement d鈥檃ccions, etc. En concret, en aquest Projecte final de Carrera s鈥檃nalitza la t猫cnica de co-clustering multiresoluci贸 jer脿rquica per segmentaci贸 de v铆deo (MRHC) amb l鈥檕bjectiu de introduir la informaci贸 de profunditat per millorar la segmentaci贸. Aquesta informaci贸 facilita la tasca de segmentaci贸 perqu猫 茅s invariant als canvis de il鈥uminaci贸 i/o textura i a la posici贸 de la c脿mera. Per aix貌, permet corregir alguns errors que produeixen les t猫cniques de segmentaci贸 basades en el color de la imatge i del moviment que es produeix a l鈥檈scena. Es poden fer dues consideracions en quant als valors de profunditat d鈥檜na escena. Per una banda, els valors d鈥檜n objecte no varien bruscament. Per l鈥檃ltre, els valors de profunditat presenten discontinu茂tats a la frontera entre objectes. Segons aquestes consideracions es pot determinar si dos regions corresponen al mateix pla de profunditat o no. En aquest projecte s鈥檋an estudiat tres manera de incorporar la informaci贸 de profunditat a MRHC. La primera pondera la similitud entre regions en funci贸 de la diferencia de profunditat entre aquestes. Aquest coeficient penalitza la similitud a mesura que la diferencia augmenta. La segona determina el ve茂nat entre regions en 3D. Per 煤ltim, la tercera combina les dues anteriors. S鈥檋a utilitzat la base de dades Occlusion/Object Boundary per avaluar la inclusi贸 de la profunditat a MRHC i per comparar MRHC amb les t猫cniques del estat del art en segmentaci贸 de v铆deo. Els resultats obtinguts mostren que la inclusi贸 de la profunditat obt茅 millora els resultats obtinguts amb MRHC, superant les t猫cniques del estat del art

    Reordenaci贸 i agrupament d鈥檌matges resultants d鈥檜na cerca de v铆deo

    No full text
    La recuperaci贸 de v铆deo a trav茅s de consultes textuals es una practica molt com煤 en els arxius de radiodifusi贸. Les paraules clau de les consultes son comparades amb les metadades que s鈥檃noten manualment als assets de v铆deo pels documentalistes. A m茅s, les cerques textuals b脿siques generen llistes de resultats planes, on tots els resultats tenen la mateixa import脿ncia, ja que, es limita a avaluar bin脿riament si la paraula de cerca apareix o no entre les metadades associades als continguts. A m茅s, acostumen a mostrar continguts molt similars, donant al usuari una llista ordenada de resultats de poca diversitat visual. La redund脿ncia en els resultats provoca un malbaratament d鈥檈spai a la interf铆cie gr脿fica d鈥檜suari (GUI) que sovint obliga a l鈥檜suari a interactuar fortament amb la interf铆cie gr脿fica fins localitzar els resultats rellevants per a la seva cerca. La aportaci贸 del present projecte consisteix en la presentaci贸 d鈥檜na estrat猫gia de reordenaci贸 i agrupaci贸 per obtenir keyframes de major rellev脿ncia entre els primers resultats, per貌 al mateix temps mantenir una diversitat d鈥檃ssets. D鈥檃questa forma, aquestes t猫cniques permetran millorar els sistemes de visualitzaci贸 d鈥檌matges resultants d鈥檜na cerca de v铆deo. L鈥檈ina global es dissenya per ser integrada en l'entorn del Digition, el gestor de continguts audiovisuals de la Corporaci贸 Catalana de Mitjans Audiovisuals

    Diversity ranking for video retrieval from a broadcaster archive

    No full text
    Video retrieval through text queries is a very common practice in broadcaster archives. The query keywords are compared to the metadata labels that documentalists have previously associated to the video assets. This paper focuses on a ranking strategy to obtain more relevant keyframes among the top hits of the results ranked lists but, at the same time, keeping a diversity of video assets. Previous solutions based on a random walk over a visual similarity graph have been modi ed to increase the asset diversity by ltering the edges between keyframes depending on their asset. The random walk algorithm is applied separately for ever visual feature to avoid any normalization issue between visual similarity metrics. Finally, this work evaluates performance with two separate metrics: the relevance is measured by the Average Precision and the diversity is assessed by the Average Diversity, a new metric presented in this work

    Diversity ranking for video retrieval from a broadcaster archive

    No full text
    Video retrieval through text queries is a very common practice in broadcaster archives. The query keywords are compared to the metadata labels that documentalists have previously associated to the video assets. This paper focuses on a ranking strategy to obtain more relevant keyframes among the top hits of the results ranked lists but, at the same time, keeping a diversity of video assets. Previous solutions based on a random walk over a visual similarity graph have been modi ed to increase the asset diversity by ltering the edges between keyframes depending on their asset. The random walk algorithm is applied separately for ever visual feature to avoid any normalization issue between visual similarity metrics. Finally, this work evaluates performance with two separate metrics: the relevance is measured by the Average Precision and the diversity is assessed by the Average Diversity, a new metric presented in this work

    Multiresolution hierarchy co-clustering for semantic segmentation in sequences with small variations

    No full text
    This paper presents a co-clustering technique that, given a collection of images and their hierarchies, clusters nodes from these hierarchies to obtain a coherent multiresolution representation of the image collection. We formalize the co-clustering as Quadratic Semi-Assignment Problem and solve it with a linear programming relaxation approach that makes effective use of information from hierarchies. Initially, we address the problem of generating an optimal, coherent partition per image and, afterwards, we extend this method to a multiresolution framework. Finally, we particularize this framework to an iterative multiresolution video segmentation algorithm in sequences with small variations. We evaluate the algorithm on the Video Occlusion/Object Boundary Detection Dataset, showing that it produces state-of-the-art results in these scenarios
    corecore